Un compito linguistico scopre due tipi umani di elaborazione cerebrale

 

 

DIANE RICHMOND

 

 

 

NOTE E NOTIZIE - Anno XVI – 16 marzo 2019.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

Perché alcuni riescono a riprodurre un ritmo anche complesso ascoltato una sola volta ed altri non distinguono un valzer da una bossa nova? Perché alcuni hanno una grande facilità nell’apprendere nuove lingue e, con poco esercizio, ne riproducono la prosodia e le cadenze caratteristiche, mentre altri dopo anni di sforzi sembrano rimanere refrattari a questi aspetti qualitativi degli idiomi diversi dal proprio? L’idea che tali differenze siano strettamente dipendenti dal sostrato anatomo-funzionale cerebrale e non siano semplicemente il portato di gradi diversi di prestazione dipendenti da un maggiore o minore rinforzo e consolidamento sinaptico dovuto ad apprendimento, si è fatta strada da tempo fra i ricercatori di varie branche delle neuroscienze[1].

Se caratteristiche morfo-funzionali specifiche distinguono, ad esempio, il cervello delle persone sensibili al ritmo della parola udita da quelle assolutamente insensibili alla cadenza temporale dell’evento acustico-verbale, dovrebbe essere possibile con esperimenti di ascolto e registrazione delle risposte encefaliche dei volontari oggettivare tali peculiarità. Eppure, fino ad oggi, non sono stati realizzati studi in grado di sottoporre a verifica l’esistenza di due o più tipologie di risposta in campioni sperimentali.

M. Florencia Assaneo e colleghi coordinati da David Poeppel presentano un compito comportamentale apparentemente semplice, ma in grado di definire in modo chiaro e netto due gruppi qualitativamente differenti nella popolazione generale. I risultati dello studio sono rilevanti per la conoscenza neuroscientifica in generale, e per tutti coloro che studiano le basi cerebrali dei processi cognitivi o lavorano nell’ambito della riabilitazione neuropsicologica.

(Assaneo M. F., et al. Spontaneous synchronization to speech reveals neural mechanisms facilitating language learning. Nature Neuroscience - Epub ahead of print doi: 10.1038/s41593-019-0353-z, 2019).

La provenienza degli autori è la seguente: Department of Psychology, New York University, New York, NY (USA); Cognition and Brain Plasticity Unit, IDIBELL, l’Hospitalet de Llobregat, Barcelona (Spagna); Department of Cognition, Development and Educational Psychology, University of Barcelona, Barcelona (Spagna); Institute of Neuroscience, University of Barcelona, Barcelona (Spagna); Neuroscience Department, Max Planck Institute for Empirical Aesthetics, Frankfurt (Germania).

Anche se negli ultimi decenni gli studi sulla percezione del linguaggio, e in particolare sullo sviluppo delle abilità percettive in rapporto all’apprendimento della lingua madre, sono stati numerosi e hanno migliorato notevolmente le nostre conoscenze su questo argomento, ancora poco è noto della base neurale specifica di fenomeni quali la percezione di una successione ritmica di sillabe, come quella impiegata nello studio qui recensito.

Negli anni Settanta Peter Eimas dimostrò la capacità degli infanti di distinguere unità fonetiche nelle lingue verbali, mediante il rilievo di lievi cambiamenti acustici al confine fra categorie fonetiche, anche di lingue che non avevano mai udito. Il fenomeno, detto percezione categoriale, nella crescita subisce una restrizione: gli adulti hanno questa abilità di distinguere con precisione solo le unità fonetiche della lingua madre e di lingue apprese ad un livello molto avanzato, con una padronanza prossima a quella della madrelingua. Ad esempio, i Giapponesi hanno grande difficoltà nel distinguere la l dalla r nell’inglese americano, percepite entrambe come la r giapponese che, nella loro articolazione, oscilla fra l’alveolare laterale liquida l e un suono caratterizzato da rotacismo vicino ma non identico a quello della r inglese. La percezione categoriale, come fu già dimostrato nel 1975 dalla neuroscienziata cognitiva Patricia Kuhl, non è esclusiva dell’uomo, ma esiste nel cincillà[2] e nelle scimmie.

Gli studi comparati condotti nei decenni successivi hanno tracciato un quadro che ci consente di affermare che le unità fonetiche del linguaggio verbale non sono state sviluppate nella nostra specie come conseguenza dell’invenzione e dell’uso delle lingue, ma si sono evolute da preesistenti strutture uditive formate negli animali per il riconoscimento di richiami e vocalizzazioni specie-specifici. La capacità del lattante di riconoscere potenzialmente tutte le caratteristiche di tutti gli idiomi umani, ossia l’abilità nota come universalismo linguistico alla nascita, rende evidente che le limitazioni fonetiche degli adulti costituiscano il prodotto di una specializzazione per selezione che, riducendo lo spettro di suoni discriminabili, accresce l’efficienza nella lingua madre. La straordinaria abilità di estrarre significati dalle complesse e rapide articolazioni comunicative tipiche delle nostre conversazioni, si deve anche all’efficienza di questi meccanismi.

Nell’apprendimento della lingua madre si verifica un importante cambiamento nella percezione dei suoni fonetici tra i 6 e i 12 mesi. Infatti, la seconda metà del primo anno di vita rappresenta un periodo di speciale recettività per l’apprendimento della capacità di comunicazione verbale. Negli esperimenti classici della Kuhl, per verificare se questo periodo consentisse l’apprendimento a bambini americani del cinese mandarino, furono esposti lattanti di età compresa tra i 9 e i 10 mesi di vita all’ascolto della lingua più parlata al mondo. Gli studi dimostrarono che l’apprendimento è possibile solo se avviene attraverso l’interazione umana: lo stesso materiale proposto all’ascolto mediante audiocassette o televisione non sortiva gli effetti sperati. Numerosi esperimenti hanno poi dimostrato, mediante l’interazione umana, che il periodo intorno ai 9 mesi costituisce l’intervallo temporale biologico di recettività naturale per l’apprendimento fonetico.

Cercando le cause del cambiamento della percezione dei lattanti in questo periodo, si è scoperto un processo di apprendimento implicito associato all’esposizione alla parola umana e, in particolare, si è accertato che a 6 mesi il cervello del bambino comincia ad organizzare i suoni verbali uditi in categorie basate su prototipi fonetici, ossia le unità fonetiche più frequenti che sono estratte come paradigmi. Quale epifenomeno di questo processo, il lattante ignora le variazioni acustiche sviluppate intorno ai prototipi fonetici della lingua madre, come è stato dimostrato per la prima volta in bambini svedesi e statunitensi.

I dati relativi ai correlati neurofunzionali di questi processi sono ancora molto limitati e ancor meno è nota la base neurale della discriminazione fra ritmi sillabici diversi.

Ritorniamo, ora, al compito ideato da Assaneo, Poeppel e colleghi per la distinzione fra due sensibilità e risposte cerebrali a successioni di foni uditi.

La prova, consistente nell’ascolto di una sequenza isocrona di sillabe in ordine casuale, ha determinato due reazioni opposte. In particolare, una parte di coloro che hanno ascoltato la sequenza si è comportata come se fosse obbligata ad allineare la propria contemporanea produzione di sillabe alla frequenza di quelle udite, mentre un’altra parte è rimasta insensibile allo stimolo ritmico percepito.

I ricercatori hanno cercato di individuare la base cerebrale di questa differenza impiegando sia metodi neurofisiologici, sia metodiche di neuroimmagine strutturale. Tale studio ha rivelato precise differenze tra le due tipologie neurofunzionali in cui è possibile dividere la popolazione generale.

Gli esami strumentali hanno messo in evidenza delle peculiarità morfologiche e funzionali legate alla presenza o meno di sensibilità al ritmo sillabico, con chiare conseguenze per l’elaborazione cerebrale dell’informazione relativa alla comunicazione verbale e per l’apprendimento stesso di codici simbolici acustici in generale, e del linguaggio in particolare.

I volontari dello studio che manifestavano la capacità di sincronizzazione spontanea alla successione udita (high sincronizer), quando erano esposti all’ascolto verbale passivo, facevano registrare un’accresciuta sincronizzazione cervello/stimolo in corrispondenza delle aree del lobo frontale, configurando un preciso pattern localizzato. David Poeppel e colleghi hanno poi rilevato e dimostrato che tale pattern è strettamente correlato con specifiche differenze microstrutturali nelle vie nervose della sostanza bianca che connettono i lobi frontali alle aree della corteccia temporale specializzate nell’elaborazione uditiva (area acustica primaria o 41 di Brodmann, ecc.).

L’insieme dei dati emersi da questo studio – come sottolineano gli autori – documenta un meccanismo sottostante la prestazione in compiti “ecologicamente rilevanti” di apprendimento di parole.

Concludendo, si può condividere la convinzione degli autori dello studio, secondo i quali il compito da loro ideato contribuirà ad una migliore comprensione e caratterizzazione della prestazione individuale nell’elaborazione della parola udita e nell’apprendimento delle lingue.

 

L’autrice della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle numerose recensioni di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Diane Richmond

BM&L-16 marzo 2019

www.brainmindlife.org

 

 

 

 

________________________________________________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 

 

 

 



[1] Si ricorda che tale ipotesi è stata avanzata oltre vent’anni fa da Giuseppe Perrella, sulla base di osservazioni condotte sulla sensibilità al ritmo e alla prosodia nella prima infanzia. La differenza nella capacità di imitare ritmi, melodie e prosodie linguistiche, così come di esibire capacità recitative innate, era stata rilevata in numerosi bambini dai 3 ai 5 anni.

[2] Chinchilla lanigera (Bennet, 1829) sono roditori caviomorfi della famiglia delle Chinchillidae, originari della regione delle Ande, simili a scoiattoli di grandi dimensioni e con stile motorio che ricorda quello del coniglio. I grandi padiglioni auricolari, densamente percorsi da vasi che contribuiscono alla termoregolazione, hanno da sempre attratto l’attenzione dei ricercatori per studi sulla percezione acustica. Considerato animale da compagnia, in passato è stato quasi sterminato per la sua pelliccia.